Durant l'été, nous vous proposons de retrouver des articles diffusés cette année sur le site. Aujourd'hui, un article initialement publié le 25/04/2023.
Lors d’un entretien sur Fox News le 17 avril dernier, Elon Musk a déclaré à Tucker Carlson que Larry Page, l’un des fondateurs de Google, lui avait dit vouloir développer une intelligence inégalée, une sorte de "dieu numérique". Un projet dangereux pour l’humanité, selon Musk.
"Qu’arrive-t-il quand surgit quelque chose de beaucoup plus intelligent que la plus intelligente des personnes ? II est très difficile de prévoir ce qui se passera en pareil cas. On appelle ça "la singularité", comme avec un trou noir, car vous ne pouvez savoir ce qui arrive ensuite. Donc, nous devrions être prudents face à l’IA", a déclaré Musk.
Prenant l’exemple de la FDA qui réglemente et contrôle les produits médicaux et alimentaires aux États-Unis, il a ajouté qu’il faut une surveillance gouvernementale des entreprises du secteur de l’IA.
Le fondateur de Tesla déclare que l’on tend à réguler après une catastrophe et que des normes de protection arriveraient trop tard, car nous allons vers un monde où l’IA pourrait prendre des décisions pour les individus. Il explique qu’il a cofondé OpenAI, une organisation à but non lucratif et entièrement ouverte, qu’il a quitté avant la création de ChatGPT, chatbot dont il ne cesse de dénoncer les biais woke et le danger pour l’humanité, afin que les gens sachent ce qui se passe (le nom "OpenAi" fait référence à l’open source, la transparence, et l’entreprise est devenue une société à but lucratif en 2019 après le départ de Musk).
Cette décision, assure-t-il, avait été prise en réaction au choix de son ami Larry Page, l’un des deux fondateurs de Google, entreprise fermée et à but lucratif :
"La raison pour laquelle Open AI existe, c'est que Larry Page et moi étions des amis proches et j’étais chez lui à Palo Alto, et je lui parlais jusque tard dans la nuit au sujet [des problèmes de] sécurité de l'IA […] J’avais l'impression que Larry ne prenait pas suffisamment au sérieux la sécurité de l'IA. Il voulait une sorte de super-intelligence numérique, essentiellement un dieu numérique, si vous voulez, dès que possible."
Au moment de cet échange avec Page, ce dernier avait déjà recruté "à peu près trois quarts de tous les talents en intelligence artificielle dans le monde" et prenait très au sérieux son projet de dieu numérique, selon Musk. Le milliardaire ajoute qu’il avait dit à Page qu’il fallait tenir compte de l’humanité et que son ami d’alors l’a qualifié de "spéciste".
Ce terme est principalement utilisé par les antispécistes qui ne reconnaissent pas les barrières entre espèces pour déterminer les droits et considérations morales, quitte à considérer le spécisme comme du racisme.
Représentations religieuses de l’IA
Musk considère que Page ne voit que l’énorme potentiel positif de l’IA tout en refusant de voir le potentiel pour le mal, alors que "si vous avez une nouvelle technologie radicale, vous voulez essayer de prendre un ensemble de mesures qui maximisent la probabilité qu'elle fasse du bien et minimisent la probabilité qu'elle fasse de mauvaises choses."
Ce n’est pas la première fois que le patron de SpaceX recourt au vocabulaire religieux. En octobre 2014, à l’occasion du symposium du centenaire du département de l’aéronautique et l’astronautique du Massachusetts Institute of Technology, il avait opéré une comparaison entre la volonté de maîtriser le mal spirituel et le contrôle de l’IA :
"Avec l’intelligence artificielle, nous invoquons le démon. Vous connaissez toutes ces histoires où il y a le gars avec le pentagramme et l’eau bénite et il est comme... Oui, il est sûr qu’il peut contrôler le démon. Ça ne marche pas."
Musk n’est pas le seul à utiliser le lexique spirituel concernant le développement de l’IA. À son opposé, Anthony Levandowski, cofondateur du programme de voitures autonomes de Google, a créé en 2015 la "Way of the Future", une Église vénérant l’intelligence artificielle présentée comme un dieu.
Jean Sarpédon